计算机视觉和机器学习的进步使机器人能够以强大的新方式感知其周围环境,但是这些感知模块具有众所周知的脆弱性。我们考虑了合成尽管有知觉错误的安全控制器的问题。所提出的方法基于具有输入依赖性噪声的高斯过程构建状态估计器。该估计器为给定状态计算实际状态的高信心集。然后,合成了可证明可以处理状态不确定性的强大神经网络控制器。此外,提出了一种自适应采样算法来共同改善估计器和控制器。模拟实验,包括Carla中基于逼真的巷道示例,说明了提出方法在与基于深度学习的感知合成强大控制器中提出的方法的希望。
translated by 谷歌翻译
许多现有的景点(ROA)分析工具难以解决具有大规模神经网络(NN)政策和/或高维感测模式的反馈系统,如相机。在本文中,我们定制了在对冲学习界中开发的预计梯度下降(PGD)攻击方法作为大型非线性系统的通用ROA分析工具和基于端到端的感知的控制。我们表明ROA分析可以近似为约束的最大化问题,其目标是找到最坏情况的最坏情况初始条件最多。然后我们提出了两个基于PGD的迭代方法,可用于解决所得的受限最大化问题。我们的分析不是基于Lyapunov理论,因此需要问题结构的最低信息。在基于模型的设置中,我们示出了可以使用反向传播有效地执行PGD更新。在无模型设置(与基于感知的控制的ROA分析更相关)中,我们提出了一个有限差异的PGD估计,这是一般的,只需要一个黑盒模拟器来产生闭环系统的轨迹给予任何初始状态。我们在具有大规模NN政策和高维图像观测的几个数字示例下展示了我们分析工具的可扩展性和一般性。我们认为,我们所提出的分析是进一步了解大规模非线性系统的闭环稳定性和基于感知的控制的有意义的初步步骤。
translated by 谷歌翻译
基于政策的强化学习(RL)最近的经验成功,有一项研究趋势,研究了基于政策的RL方法对标准控制基准问题的研究。在本文中,我们研究了基于政策的RL方法的有效性在重要的强大控制问题上,即$ \ mu $综合。我们在强大的对策RL和$ \ mu $综合之间建立连接,并开发出众所周知的$ DK $ antication的无模型版本,用于解决静态$ d $-scaling的状态反馈$ \ mu $ synthesis。在所提出的算法中,$ k $步骤通过将最近开发的双循环对冲RL方法作为子程序来模仿经典的中央路径算法,$ D $步骤基于无模型有限差分近似。还提出了广泛的数值研究以展示我们提出的无模型算法的效用。我们的研究揭示了对抗对抗和鲁棒控制之间的联系。
translated by 谷歌翻译
统计模型检查是一类顺序算法,可以验证网络物理系统集合中感兴趣的规格(例如,来自批处理的99%的汽车是否符合其能源效率的要求)。这些算法通过绘制足够数量的独立和相同分布的样本来推断具有可证明的统计保证的系统满足给定规范的概率。在统计模型检查过程中,可能会推断出样品的值(例如,用户的汽车能源效率),从而在消费者级别的应用程序(例如自闭症和医疗设备)中引起隐私问题。本文从差异隐私的角度介绍了统计模型检查算法的隐私。这些算法是顺序的,绘制样品直到满足其值的条件。我们表明,揭示绘制的样品数量可能侵犯隐私。我们还表明,在顺序算法的背景下,将算法的输出随机输出的标准指数机制无法实现。取而代之的是,我们放宽了差异隐私的保守要求,即该算法的输出的灵敏度应与任何数据集的任何扰动界定。我们提出了一个新的差异隐私概念,我们称之为预期的差异隐私。然后,我们提出了对顺序算法的新型预期灵敏度分析,并提出了一种相应的指数机制,该机制将终止时间随机,以实现预期的差异隐私。我们将提出的机制应用于统计模型检查算法,以保留其绘制样品的隐私。在案例研究中证明了所提出算法的效用。
translated by 谷歌翻译
We study critical systems that allocate scarce resources to satisfy basic needs, such as homeless services that provide housing. These systems often support communities disproportionately affected by systemic racial, gender, or other injustices, so it is crucial to design these systems with fairness considerations in mind. To address this problem, we propose a framework for evaluating fairness in contextual resource allocation systems that is inspired by fairness metrics in machine learning. This framework can be applied to evaluate the fairness properties of a historical policy, as well as to impose constraints in the design of new (counterfactual) allocation policies. Our work culminates with a set of incompatibility results that investigate the interplay between the different fairness metrics we propose. Notably, we demonstrate that: 1) fairness in allocation and fairness in outcomes are usually incompatible; 2) policies that prioritize based on a vulnerability score will usually result in unequal outcomes across groups, even if the score is perfectly calibrated; 3) policies using contextual information beyond what is needed to characterize baseline risk and treatment effects can be fairer in their outcomes than those using just baseline risk and treatment effects; and 4) policies using group status in addition to baseline risk and treatment effects are as fair as possible given all available information. Our framework can help guide the discussion among stakeholders in deciding which fairness metrics to impose when allocating scarce resources.
translated by 谷歌翻译
自然语言和生物学序列之间的明显相似之处已导致最新的深层语言模型(LMS)在抗体和其他生物学序列分析中的应用激增。但是,缺乏对生物序列语言的严格语言形式化,这些语言将定义基本组成部分,例如词典(即语言的离散单元)和语法(即,将序列序列良好的规则,结构和结构和结构和结构和结构链接的规则链接在一起含义)导致了LMS的主要域无规定应用,这些应用未考虑研究的生物序列的基础结构。另一方面,语言形式化为LM应用建立了语言信息,因此适应域的组件。它将有助于更好地理解自然语言和生物序列之间的差异和相似性如何影响LMS的质量,这对于具有可解释的模型具有可解释的模型至关重要。解密抗体特异性规则对于加速有理和硅生物治疗药物设计至关重要。在这里,我们将抗体语言的特性形式化,因此不仅建立了语言工具在适应性免疫受体分析中应用的基础,而且还为免疫受体特异性的系统免疫语言学研究提供了基础。
translated by 谷歌翻译
学习证明(POL)建议模型所有者使用机器学习培训检查站,以建立已经花费了必要的培训计算的证明。 POL FIREGO加密方法和贸易严格的安全性的作者通过适用于随机梯度下降和适应性变体,可扩展到深度学习。缺乏正式分析使攻击者可能能够为他们没有训练的模型提供证据。我们对为什么不能正式(DIS)正式分析POL协议可抵抗欺骗对手。为此,我们在POL中解开了证明验证的两个角色:(a)有效确定证明是否是有效的梯度下降轨迹,以及(b)确定优先级,使在培训完成后制作证明(即。 ,欺骗)。我们表明,有效的验证会导致接受合法证明和拒绝无效的证据之间的权衡,因为深度学习必然涉及噪音。没有针对这种噪声如何影响训练的精确分析模型,我们无法正式保证POL验证算法是否强大。然后,我们证明,建立优先级也可以鲁棒化地减少到学习理论中的一个开放问题:欺骗Pol Pol hoc hoc训练类似于在非凸X学习中找到具有相同终点的不同轨迹。但是,我们不严格地知道对最终模型权重的先验知识是否有助于发现此类轨迹。我们得出的结论是,在解决上述开放问题之前,可能需要更严重地依靠密码学来制定新的POL协议,并提供正式的鲁棒性保证。特别是,这将有助于建立优先级。作为我们分析的见解的副产品,我们还展示了对POL的两次新攻击。
translated by 谷歌翻译
基于神经网络的深层语言模型(LMS)越来越多地应用于大规模蛋白质序列数据以预测蛋白质功能。然而,作为黑框模型,当前的蛋白质LM方法并不促进对序列功能映射的基本理解,而阻碍了基于规则的生物治疗药物开发,因此目前的蛋白质LM方法不大。我们认为,从语言学中得出的指导是从自然语言数据中提取分析规则的领域,可以帮助构建学习相关领域特定规则的更容易解释的蛋白质LM。与自然语言LMS相比,蛋白质序列数据和语言序列数据之间的差异需要在蛋白质LMS中集成更多的域特异性知识。在这里,我们为培训数据,令牌化,令牌嵌入,序列嵌入和模型解释提供了基于语言学的路线图。将语言学与蛋白质LMS结合起来,可以发展下一代可解释的机器学习模型,并有可能发现序列功能关系基础的生物学机制。
translated by 谷歌翻译
在本文中,我们介绍了第一个链接冰岛语料库的实体。我们描述了使用多语言实体链接模型(MGENRE)与Wikipedia API搜索(WAPIS)结合使用的方法来标记我们的数据并将其与仅使用WAPIS进行比较。我们发现,我们的组合方法在我们的语料库上达到53.9%的覆盖范围,而仅使用WAPIS的覆盖率为30.9%。我们分析我们的结果并解释使用冰岛时使用多语言系统的价值。此外,我们分析了仍然没有标记的数据,识别模式并讨论为什么它们可能很难注释。
translated by 谷歌翻译
特征选择是数据科学流水线的重要步骤,以减少与大型数据集相关的复杂性。虽然对本主题的研究侧重于优化预测性能,但很少研究在特征选择过程的上下文中调查稳定性。在这项研究中,我们介绍了重复的弹性网技术(租金)进行特色选择。租金使用具有弹性净正常化的广义线性模型的集合,每个训练都培训了训练数据的不同子集。该特征选择基于三个标准评估所有基本模型的重量分布。这一事实导致选择具有高稳定性的特征,从而提高最终模型的稳健性。此外,与已建立的特征选择器不同,租金提供了有关在训练期间难以预测的数据中难以预测的对象的模型解释的有价值信息。在我们的实验中,我们在八个多变量数据集中对六个已建立的特征选择器进行基准测试,用于二进制分类和回归。在实验比较中,租金在预测性能和稳定之间展示了均衡的权衡。最后,我们强调了租金的额外解释价值与医疗保健数据集的探索性后HOC分析。
translated by 谷歌翻译